-
1 Umlaufgeschwindigkeit eines Zeichens
Deutsch-Englisch Wörterbuch der Elektrotechnik und Elektronik > Umlaufgeschwindigkeit eines Zeichens
-
2 Auslassung
-
3 Fettdrucken
-
4 gießen
vt PRINT [eines Zeichens] cast -
5 Löschen
См. также в других словарях:
Bundesgesetz über die Anerkennung des Österreichischen Roten Kreuzes und den Schutz des Zeichens des Roten Kreuzes — Das Rotkreuzgesetz (RKG), mit vollständigem Titel Bundesgesetz über die Anerkennung des Österreichischen Roten Kreuzes und den Schutz des Zeichens des Roten Kreuzes, ist ein in Österreich seit dem 1. Februar 2008 geltendes Bundesgesetz, das die… … Deutsch Wikipedia
Überraschungswert — Der Begriff der Information, wie er in der Informationstheorie nach Shannon[1] verwendet wird, ist streng von dem gewöhnlichen Gebrauch dieses Begriffes zu unterscheiden. Insbesondere darf darin die Information nicht mit dem Begriff der Bedeutung … Deutsch Wikipedia
Informationsdichte — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… … Deutsch Wikipedia
Informationsentropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… … Deutsch Wikipedia
Maximale Entropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… … Deutsch Wikipedia
Maximalentropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… … Deutsch Wikipedia
Shannon-Entropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… … Deutsch Wikipedia
Shannonentropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… … Deutsch Wikipedia
Zeichen — Ein Zeichen ist im weitesten Sinne etwas, das auf etwas anderes zeigt. Zeichentheoretiker sehen darin ein semiotisches Phänomen und bestimmen im engeren Sinne Zeichen als eine Unterklasse dieses Phänomens. Dort stehen Zeichen anderen semiotischen … Deutsch Wikipedia
Bedeutung (Philosophie) — Bedeutung ist ein grundlegender Begriff in der Linguistik und Sprachphilosophie. Wichtig ist der Begriff auch in der Informatik, der Forschung zur Künstlichen Intelligenz und in den Kognitionswissenschaften. Es gibt verschiedene Ansätze zur… … Deutsch Wikipedia
Bedeutung (Sprachphilosophie) — Bedeutung ist ein grundlegender Begriff in der Linguistik und Sprachphilosophie. Wichtig ist der Begriff auch in der Informatik, der Forschung zur Künstlichen Intelligenz und in den Kognitionswissenschaften. Inhaltsverzeichnis 1 Ansätze zur… … Deutsch Wikipedia